我们展示了如何构建深度神经网络(DNN)专家,以预测给定计算问题的准最佳$ HP $ - 翻新。主要想法是在执行自适应$ HP $ -FINITE元素方法($ HP $ -FEM)算法的过程中培训DNN专家,并以后使用它来预测进一步的$ HP $细化。在培训中,我们使用两个网格范式自适应$ HP $ -FEM算法。它采用精细网格为粗网格元素提供最佳$ HP $改进。我们旨在构建DNN专家,以识别粗网格元素的准最佳$ HP $改进。在训练阶段,我们使用直接求解器获取细网元的溶液,以指导粗网格元件上的最佳修补。训练后,我们关闭了自适应$ hp $ -FEM算法,并继续按照受过DNN专家培训的DNN专家提出的准优化细化。我们测试了三维FICHERA和二维L形域问题的方法。我们验证数值相对于网格尺寸的收敛性。我们表明,如果我们继续使用经过适当培训的DNN专家进行改进,则可以保留由自适应$ hp $ -FEM提供的指数融合。因此,在本文中,我们表明,从自适应$ hp $ -fem中,可以训练DNN专家的奇异性位置,并继续选择准最佳的$ hp $ previness该方法的指数收敛性。
translated by 谷歌翻译
Distance Metric Learning (DML) has attracted much attention in image processing in recent years. This paper analyzes its impact on supervised fine-tuning language models for Natural Language Processing (NLP) classification tasks under few-shot learning settings. We investigated several DML loss functions in training RoBERTa language models on known SentEval Transfer Tasks datasets. We also analyzed the possibility of using proxy-based DML losses during model inference. Our systematic experiments have shown that under few-shot learning settings, particularly proxy-based DML losses can positively affect the fine-tuning and inference of a supervised language model. Models tuned with a combination of CCE (categorical cross-entropy loss) and ProxyAnchor Loss have, on average, the best performance and outperform models with only CCE by about 3.27 percentage points -- up to 10.38 percentage points depending on the training dataset.
translated by 谷歌翻译
This paper presents an analysis regarding an influence of the Distance Metric Learning (DML) loss functions on the supervised fine-tuning of the language models for classification tasks. We experimented with known datasets from SentEval Transfer Tasks. Our experiments show that applying the DML loss function can increase performance on downstream classification tasks of RoBERTa-large models in few-shot scenarios. Models fine-tuned with the use of SoftTriple loss can achieve better results than models with a standard categorical cross-entropy loss function by about 2.89 percentage points from 0.04 to 13.48 percentage points depending on the training dataset. Additionally, we accomplished a comprehensive analysis with explainability techniques to assess the models' reliability and explain their results.
translated by 谷歌翻译
Continual learning with an increasing number of classes is a challenging task. The difficulty rises when each example is presented exactly once, which requires the model to learn online. Recent methods with classic parameter optimization procedures have been shown to struggle in such setups or have limitations like non-differentiable components or memory buffers. For this reason, we present the fully differentiable ensemble method that allows us to efficiently train an ensemble of neural networks in the end-to-end regime. The proposed technique achieves SOTA results without a memory buffer and clearly outperforms the reference methods. The conducted experiments have also shown a significant increase in the performance for small ensembles, which demonstrates the capability of obtaining relatively high classification accuracy with a reduced number of classifiers.
translated by 谷歌翻译
气道分割对于检查,诊断和预后的肺部疾病至关重要,而其手动描述则不当。为了减轻这种耗时且潜在的主观手动程序,研究人员提出了从计算机断层扫描(CT)图像自动分割气道的方法。但是,一些小型气道分支(例如,支气管和终末支气管)显着加剧了通过机器学习模型的自动分割难度。特别是,气道分支中体素值和严重的数据失衡的方差使计算模块容易导致不连续和假阴性预测。注意机制表明了分割复杂结构的能力,而模糊逻辑可以减少特征表示的不确定性。因此,由模糊注意力层给出的深度注意力网络和模糊理论的整合应该是升级的解决方案。本文提出了一种有效的气道分割方法,包括一个新型的模糊注意力神经网络和全面的损失函数,以增强气道分割的空间连续性。深层模糊集由特征图中的一组体素和可学习的高斯成员功能制定。与现有的注意机制不同,所提出的特异性模糊注意力解决了不同渠道中异质特征的问题。此外,提出了一种新的评估指标来评估气道结构的连续性和完整性。该方法的效率已通过在包括精确的09和LIDC数据集在内的开放数据集上进行测试,以及我们的内部Covid-19和纤维化肺病数据集证明了这一建议的效率。
translated by 谷歌翻译
由于有效的检索速度和储存率低,因此学习哈希已被广泛用于视觉检索任务。但是,现有的哈希方法假定查询和检索样品位于同一域内的均匀特征空间中。结果,它们不能直接应用于异质的跨域检索。在本文中,我们提出了一个广义图像转移检索(GITR)问题,该问题遇到了两个关键的瓶颈:1)查询和检索样品可能来自不同的域,导致不可避免的{域分布gap}; 2)两个域的特征可能是异质的或未对准的,从而增加了{特征差距}。为了解决GITR问题,我们提出了一个不对称的转移哈希(ATH)框架,其无监督/半监督/监督的实现。具体而言,ATH通过两个不对称的哈希函数之间的差异来表征域分布差距,并借助于跨域数据构建的新型自适应双分部分图,从而最小化特征差距。通过共同优化不对称的哈希功能和两分图,不仅可以实现知识转移,而且还可以避免由特征比对引起的信息损失。同时,为了减轻负转移,通过涉及域亲和图来保留单域数据的内在几何结构。对不同GITR子任务下的单域和跨域基准测试的广泛实验表明,与最新的哈希方法相比,我们的ATH方法的优越性。
translated by 谷歌翻译
现实世界优化问题可能具有不同的基础结构。在黑盒优化中,决策变量之间的依赖关系仍然未知。但是,某些技术可以准确发现此类相互作用。在大规模的全球优化(LSGO)中,问题是高维的。显示出将LSGO问题分解为子问题并分别优化它们有效。这种方法的有效性可能高度取决于问题分解的准确性。许多最新的分解策略来自差分组(DG)。但是,如果给定的问题由不可分离的子问题组成,则它们仅检测真实相互作用的能力可能会大大减少。因此,我们提出了不遭受此缺陷的增量递归排名分组(IRRG)。 IRRG比最近基于DG的命题(例如递归DG 3(RDG3))消耗更多的健身功能评估。然而,对于适合RDG3的可添加性可分离子问题而言,嵌入IRRG或RDG3后所考虑的合作共同进化框架的有效性相似。但是,在用非添加的嵌入IRRG代替可分离性后,IRRG会导致质量明显更高的结果。
translated by 谷歌翻译
通用形态(UNIMORPH)项目是一项合作的努力,可为数百种世界语言实例化覆盖范围的标准化形态拐角。该项目包括两个主要的推力:一种无独立的特征架构,用于丰富的形态注释,并以各种语言意识到该模式的各种语言的带注释数据的类型级别资源。本文介绍了过去几年对几个方面的扩张和改进(自McCarthy等人(2020年)以来)。众多语言学家的合作努力增加了67种新语言,其中包括30种濒危语言。我们已经对提取管道进行了一些改进,以解决一些问题,例如缺少性别和马克龙信息。我们还修改了模式,使用了形态学现象所需的层次结构,例如多肢体协议和案例堆叠,同时添加了一些缺失的形态特征,以使模式更具包容性。鉴于上一个UniMorph版本,我们还通过16种语言的词素分割增强了数据库。最后,这个新版本通过通过代表来自metphynet的派生过程的实例丰富数据和注释模式来推动将衍生物形态纳入UniMorph中。
translated by 谷歌翻译
目前全面监督的面部地标检测方法迅速进行,实现了显着性能。然而,当在大型姿势和重闭合的面孔和重闭合时仍然遭受痛苦,以进行不准确的面部形状约束,并且标记的训练样本不足。在本文中,我们提出了一个半监督框架,即自我校准的姿势注意网络(SCPAN),以实现更具挑战性的情景中的更强大和精确的面部地标检测。具体地,建议通过定影边界和地标强度场信息来模拟更有效的面部形状约束的边界意识的地标强度(BALI)字段。此外,设计了一种自我校准的姿势注意力(SCPA)模型,用于提供自学习的目标函数,该功能通过引入自校准机制和姿势注意掩模而无需标签信息而无需标签信息。我们认为,通过将巴厘岛领域和SCPA模型集成到新颖的自我校准的姿势网络中,可以了解更多的面部现有知识,并且我们的面孔方法的检测精度和稳健性得到了改善。获得具有挑战性的基准数据集获得的实验结果表明,我们的方法优于文献中最先进的方法。
translated by 谷歌翻译
我们介绍了一种新的损失函数TriplePropy,提高微调普通知识的分类性能,基于交叉熵和软损失。这种损失功能可以通过跨熵损失改善强大的罗伯拉基线模型,大约(0.02% - 2.29%)。对流行数据集的彻底测试表示稳定增益。训练数据集中的样品越小,增益越高,对于小型数据集而言,其为0.78%,用于中等大小 - 0.86%,大约0.20%,超大0.04%。
translated by 谷歌翻译